Donde 'x' es la entrada de la neurona. También es conocida como función rampa y es análoga a la rectificación de media onda en electrónica. La función de activación activa los pesos de una neurona según el resultado de dicha neurona en el mundo de la inteligencia artificial.
El primer uso documentado de esta función de activación en una red dinámica fue descrito por Hahnloser et al. en un artículo del año 2000[1] en donde se presenta su bioinspiración y el fundamento matemático.[2] Se utiliza en redes neuronales convolucionales[3] para obtener resultados de menor error que los generados con función logística (la cual es inspirada por la teoría de la probabilidad) y existe evidencia que es más práctica[4] que su contraparte, la función hiperbólica. El rectificador es una función de activación común en redes neuronales profundas.[5]
Las unidades que emplean el rectificador son conocidas como unidad lineal rectificada (ReLU, por sus siglas en inglés).
↑R Hahnloser, R. Sarpeshkar, M A Mahowald, R. J. Douglas, H.S. Seung (2000). «Digital selection and analogue amplification coexist in a cortex-inspired silicon circuit». Nature405: 947-951.
↑R Hahnloser, H.S. Seung (2001). Permitted and Forbidden Sets in Symmetric Threshold-Linear Networks. NIPS 2001.
↑ abXavier Glorot, Antoine Bordes and Yoshua Bengio (2011). Deep sparse rectifier neural networks. AISTATS. Archivado desde el original el 13 de diciembre de 2016. Consultado el 19 de octubre de 2017.
↑Yann LeCun, Leon Bottou, Genevieve B. Orr and Klaus-Robert Müller (1998). «Efficient BackProp». En G. Orr and K. Müller, ed. Neural Networks: Tricks of the Trade. Springer.